iT邦幫忙

第 12 屆 iThome 鐵人賽

DAY 9
0

今天先來複習一下高中教的統計模型:迴歸直線。

考慮 $N$ 筆資料,${\left(x_i, y_i \right)}{i=1}^N \in \mathbb{R}^2$,我們要找一條直線 $y = mx + k$,使得 $\sum{i=1}^N (y_i - (mx_i+k))^2$ 最小,也就是以下定義:
$$
m, k = \mathop{\arg\min}{m,\ k \in \mathbb{R}^2} \sum{i=1}^N (y_i - (mx_i+k))^2
$$
其中可以用高中數學或微積分解出 $\displaystyle m = r \frac{\sigma_y}{\sigma_x}$ 且 $\displaystyle k = \mu_y - r \frac{\sigma_y}{\sigma_x}\cdot \mu_x$。

高中迴歸直線可以說是最基本的統計模型,也是人工智慧模型最基本的式子,從這個概念可以推廣到各種各樣的模型,明天繼續。


上一篇
[Day 08] 機器學習上 Machine Learning I
下一篇
[Day 10] 機器學習基本模型 Typical Machine Learning Problem
系列文
窺探人工智慧與資料科學的面貌30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言